千万别让AI夺走你的决策权 | 腾云下午茶
数字文化领域著名学者、《连线》杂志首任主编凯文·凯利曾说,“很难想象有什么事物会像廉价、强大、无处不在的人工智能那样拥有‘改变一切’的力量。”
随着人工智能的不断推进,未来算法、数据必然在各个领域与我们发生关系,包括伦理层面。那么怎样看待算法背后的价值预设?怎样避免算法的机械和不平等?怎样对算法进行监管?有了算法,人在决策的过程中如何自处?
9月28日,在以“更公平的AI”为主题的腾云下午茶上,中国人民大学法学院未来法治研究院副院长、耶鲁大学法学博士丁晓东分享了对上述问题的看法。
本文经腾云编辑整理发布。
丁晓东
中国人民大学法学院未来法治研究院副院长
耶鲁大学法学博士
算法是带有伦理性的科学
算法是不是完全价值中立,或者价值无涉的科学?答案是明确的,不存在完全客观、价值无涉的算法,任何算法都有伦理性或价值预设,只不过这个价值预设是不是正当,需要思考。
算法问题不是完全全新的问题,并非大数据时代到来之后才出现的。比如大学招生,中国基本采用以高考为体系、以分数为标准的算法。在美国,亚裔成绩往往较优秀,而向黑人、墨西哥人倾斜的招生政策,使亚裔深感被歧视,这其中就包含了算法公平问题。
理解算法,首先要把算法从数学的想象当中解放出来,把伦理学、法律、哲学、科学等全部囊括到考虑当中。
在关键问题上,人是决策的主体
大数据时代的算法已脱离了个人的理性判断,完全通过相关关系而不是因果关系运行,因此出现了三个方面的问题。
首先,算法的伦理标准是什么?比较通行的标准是反歧视,即不做区分,公平对待,但其中存在一些问题。若脱离社会语境完全反歧视,则会导致表面公平、实际歧视的问题。反歧视算法要思考反区别(anti-discrimination)和反屈从(anti-subordination),而且要思考结构性歧视或结构性不公平的问题,进行实质性判断。
其次,算法的透明问题。从总体上看,要坚持算法的公开性,因为算法的公开性有利于公众参与,避免算法黑箱。但也要看到算法不透明发挥正面作用的可能性,比如中国科技大学給与贫困学生补助的算法,以学生在食堂的消费情况为评定依据,就避免了贫困学生公开“比穷”、伤害贫困家庭孩子自尊心等问题。
最后,采取何种监管方式需要在具体语境中判断,要在不同环境中对搜集数据和算法的运用采取不同的监管措施。而且需要合理运用专家理性、公众参与与市场机制的监管措施,发挥不同监管路径的利弊。
归根结底,根本问题是科技是否中立、是否完全价值无设。我们对人工智能和数据的想象是它能够越来越客观,越来越准确,能像人一样判断,甚至会代替法官判案。但这在逻辑上是不可能的。人工智能算法可以提高预测性,但一旦涉及到人的基本价值问题,人永远在其中扮演主体和决策者角色,我们要大力发展和促进科技,但不能陷入科技的盲目乐观主义,对科技发展中的伦理与法律问题视而不见。
往 期 回 顾